Reinforcement learning allows machines to learn from their own experience. Nowadays, it is used in safety-critical applications, such as autonomous driving, despite being vulnerable to attacks carefully crafted to either prevent that the reinforcement learning algorithm learns an effective and reliable policy, or to induce the trained agent to make a wrong decision. The literature about the security of reinforcement learning is rapidly growing, and some surveys have been proposed to shed light on this field. However, their categorizations are insufficient for choosing an appropriate defense given the kind of system at hand. In our survey, we do not only overcome this limitation by considering a different perspective, but we also discuss the applicability of state-of-the-art attacks and defenses when reinforcement learning algorithms are used in the context of autonomous driving.
translated by 谷歌翻译
在线系统缺乏连续性的最常见原因之一是源自广泛流行的网络攻击,称为分布式拒绝服务(DDOS),在该网络攻击中,受感染设备(僵尸网络)网络被利用以通过淹没服务的计算能力。攻击者的命令。这种攻击是通过通过域名系统(DNS)技术通过域生成算法(DGAS)来进行的,这是一种隐身连接策略,但仍留下可疑的数据模式。为了发现这种威胁,已经取得了分析的进步。对于大多数人来说,他们发现机器学习(ML)是一种解决方案,可以在分析和分类大量数据方面非常有效。尽管表现出色,但ML模型在决策过程中具有一定程度的晦涩难懂。为了解决这个问题,ML的一个被称为可解释的ML的分支试图分解分类器的黑盒性质,并使它们可解释和可读。这项工作解决了在僵尸网络和DGA检测背景下可解释的ML的问题,我们最了解的是,当设计用于僵尸网络/DGA检测时,第一个具体分解了ML分类器的决定,因此提供了全球和本地。解释。
translated by 谷歌翻译
虽然ImageNet最初被提出为计算机愿景领域的性能基准的数据集,但它也支持各种其他研究工作。对抗机器学习是一种这样的研究努力,采用欺骗性输入来制作错误的预测。为了评估对抗机器学习领域的攻击和防御,Imagenet仍然是最常用的数据集之一。但是,尚待调查的主题是对抗性实例被错误分类的课程的性质。在本文中,我们对这些错误分类类进行了详细的分析,利用了想象群类层次结构并测量了对逆势示例的不受干扰的起源中上述类别的相对位置。我们发现71%的普遍例子,即实现模型 - 模型对抗性转移性的普遍例子被错误分类为对底层源图像预测的前5个类之一。我们还发现,实际上,大量未确定的错误分类子集实际上是分类到语义上类似的课程。根据这些调查结果,我们讨论在评估未确定的对抗性成功时需要考虑到Imageenet类层次结构。此外,我们倡导未来的研究努力,以合并分类信息。
translated by 谷歌翻译
评估机器学习模型对对抗性示例的鲁棒性是一个具有挑战性的问题。已经证明,许多防御能力通过导致基于梯度的攻击失败,从而提供了一种错误的鲁棒感,并且在更严格的评估下它们已被打破。尽管已经提出了指南和最佳实践来改善当前的对抗性鲁棒性评估,但缺乏自动测试和调试工具,使以系统的方式应用这些建议变得困难。在这项工作中,我们通过以下方式克服了这些局限性:(i)根据它们如何影响基于梯度的攻击的优化对攻击失败进行分类,同时还揭示了两种影响许多流行攻击实施和过去评估的新型故障; (ii)提出了六个新的失败指标,以自动检测到攻击优化过程中这种失败的存在; (iii)建议采用系统协议来应用相应的修复程序。我们广泛的实验分析涉及3个不同的应用域中的15多个模型,表明我们的失败指标可用于调试和改善当前的对抗性鲁棒性评估,从而为自动化和系统化它们提供了第一步。我们的开源代码可在以下网址获得:https://github.com/pralab/indicatorsofattackfailure。
translated by 谷歌翻译
评估对抗性鲁棒性的量,以找到有输入样品被错误分类所需的最小扰动。底层优化的固有复杂性需要仔细调整基于梯度的攻击,初始化,并且可能为许多计算苛刻的迭代而被执行,即使专门用于给定的扰动模型也是如此。在这项工作中,我们通过提出使用不同$ \ ell_p $ -norm扰动模型($ p = 0,1,2,\ idty $)的快速最小规范(FMN)攻击来克服这些限制(FMN)攻击选择,不需要对抗性起点,并在很少的轻量级步骤中收敛。它通过迭代地发现在$ \ ell_p $ -norm的最大信心被错误分类的样本进行了尺寸的尺寸$ \ epsilon $的限制,同时适应$ \ epsilon $,以最小化当前样本到决策边界的距离。广泛的实验表明,FMN在收敛速度和计算时间方面显着优于现有的攻击,同时报告可比或甚至更小的扰动尺寸。
translated by 谷歌翻译
由于传感器的成本和可靠性高,泵的设计人员会尽可能地估算可行操作点所需的传感器数量。获得良好估计的主要挑战是可用的数据量低。使用此数量的数据,估算方法的性能不足以满足客户的要求。为了解决这个缺乏数据的问题,获取高质量数据对于获得良好的估计很重要。根据这些考虑,我们开发了一个主动学习框架,用于估计能量场中使用的模块化多泵的工作点。特别是,我们专注于电涌距离的估计。我们应用主动学习以使用最小数据集估算浪涌距离。结果报告说,主动学习也是真正应用的宝贵技术。
translated by 谷歌翻译
婴儿对一般运动(GM)的评估是早期诊断神经发育障碍的有用工具。但是,其在临床实践中的评估依赖于专家的视觉检查,并且热切期待自动解决方案。最近,基于视频的GMS分类引起了人们的注意,但是这种方法将受到无关信息的强烈影响,例如视频中的背景混乱。此外,为了可靠性,有必要在GMS期间正确提取婴儿的时空特征。在这项研究中,我们提出了一种自动GMS分类方法,该方法由预处理网络组成,该网络从GMS视频中删除不必要的背景信息并调整婴儿的身体位置以及基于两流结构的后续运动分类网络。提出的方法可以有效地提取GMS分类的基本时空特征,同时防止过度拟合与不同记录环境无关的信息。我们使用从100名婴儿获得的视频验证了提出的方法。实验结果表明,所提出的方法的表现优于几个基线模型和现有方法。
translated by 谷歌翻译